España – Aplicación de la inteligencia artificial generativa en el sector jurídico

30 julio 2024

  • España
  • Inteligencia artificial

La inteligencia artificial generativa (IA generativa) es una variante de la inteligencia artificial destinado a crear modelos capaces de generar contenido nuevo y original. Estos modelos son entrenados para aprender patrones y características a partir de conjuntos de datos, y luego pueden generar contenido similar o incluso completamente nuevo basándose en esas pautas aprendidas.

Un tipo específico de modelo generativo es la red neuronal generativa (GAN, por sus siglas en inglés). Las GAN consisten en dos redes neuronales, una generadora y otra discriminadora, que trabajan en conjunto. La red generadora crea contenido nuevo, mientras que la red discriminadora evalúa la autenticidad de ese contenido. A medida que estas redes compiten y mejoran, el modelo generativo puede producir resultados cada vez más realistas.

La AI generativa tiene aplicaciones en diversas áreas, como la creación de arte, la generación de texto creativo, la síntesis de voz, etc. También se utiliza en campos como la mejora de imágenes y la traducción automática. Este enfoque ha avanzado significativamente en los últimos años y sigue siendo un área activa de investigación en la inteligencia artificial.

La inteligencia artificial generativa aplicada al sector jurídico implica el uso de modelos generativos para ayudar en diversas tareas y procesos relacionados con la práctica legal.

Aspectos positivos de la IA generativa aplicada al sector jurídico

La integración de la inteligencia artificial generativa en el ámbito jurídico ha emergido como un catalizador transformador, proporcionando una serie de beneficios significativos que impactan positivamente en la eficiencia, precisión y accesibilidad de los servicios legales. A lo largo de esta evolución, diversos aspectos destacan la contribución sustancial de la inteligencia artificial a la práctica legal.

A continuación, se destacan algunos de estos aspectos beneficiosos:

Redacción de Documentos Legales

La AI generativa puede ser utilizada para redactar documentos legales, contratos y otros textos jurídicos. Puede generar contenido basado en patrones aprendidos a partir de grandes conjuntos de datos legales, facilitando la creación de documentos estándar y reduciendo la carga de trabajo para los profesionales del derecho, garantizando también la coherencia y precisión en la redacción legal, reduciendo riesgos asociados con posibles errores humanos.

Análisis de grandes volúmenes de datos

La capacidad de procesar información a una velocidad y escala que supera las habilidades humanas permite la identificación de patrones, tendencias y precedentes con mayor rapidez y precisión. Este análisis avanzado contribuye a fortalecer los argumentos legales, mejorar la toma de decisiones estratégicas y ofrecer a los clientes una representación legal más sólida.

Mejora en la investigación legal

Los sistemas de inteligencia artificial generativa pueden realizar búsquedas más rápidas y precisas en bases de datos legales, bibliotecas jurídicas y jurisprudencia. Esto agiliza el proceso de investigación legal, proporcionando a los profesionales acceso a información relevante de manera más eficiente.

Generación de Argumentos Jurídicos

La AI generativa puede asistir en la generación de argumentos legales sólidos. Al comprender la jurisprudencia y los principios legales, puede ayudar a los abogados a construir mejores argumentos y a desarrollar estrategias para casos específicos.

Asesoramiento Legal Automatizado

Se pueden desarrollar sistemas de asesoramiento legal automatizado que utilicen AI generativa para responder preguntas legales comunes y proporcionar orientación básica. Esto podría ser útil para consultas legales más simples y para mejorar el acceso a la información jurídica.

Asesoramiento legal personalizado

La inteligencia artificial puede analizar datos específicos de casos y proporcionar asesoramiento legal personalizado. Esto ayuda a los profesionales del derecho a tomar decisiones más informadas y estratégicas, considerando factores específicos de cada situación.

Simulación de Escenarios Legales

La AI generativa puede simular escenarios legales para ayudar a los abogados a evaluar posibles resultados y riesgos en casos particulares. Esto podría ser útil en la toma de decisiones estratégicas y en la planificación legal.

Automatización de tareas repetitivas

La capacidad de los sistemas de inteligencia artificial para asumir la carga de trabajo relacionada con la revisión de documentos estándar y la gestión de información básica permite a los profesionales del derecho centrarse en cuestiones más complejas y estratégicas. Esta automatización no solo ahorra tiempo, sino que también disminuye la probabilidad de errores humanos, fortaleciendo así la calidad global del trabajo legal.

Optimización de procesos internos

La inteligencia artificial puede contribuir significativamente a mejorar la eficiencia en la gestión de casos, programación de reuniones y otras operaciones diarias en firmas legales. Esta optimización no solo agiliza las prácticas internas, sino que también permite una asignación más eficiente de recursos y una gestión más efectiva de la carga de trabajo.

En resumen, la aplicación de la inteligencia artificial generativa en el sector jurídico trasciende la mera automatización de tareas, abarcando aspectos fundamentales que mejoran la calidad y eficiencia de los servicios legales. Desde la automatización de tareas rutinarias hasta el análisis avanzado de datos y la generación de documentos, la inteligencia artificial se presenta como un aliado poderoso que impulsa la evolución positiva en la práctica jurídica. Este avance no solo mejora la eficiencia interna de las firmas legales, sino que también fortalece la capacidad de los profesionales del derecho para ofrecer asesoramiento preciso y estratégico en un entorno legal en constante cambio.

Aunque la AI generativa ofrece muchas posibilidades, su implementación en el sector jurídico debe abordarse con precaución para garantizar la precisión, la ética y la conformidad con las leyes y normativas aplicables. La intervención humana y la supervisión legal siguen siendo esenciales para asegurar la calidad y la responsabilidad en el uso de estas tecnologías.

Aspectos negativos de la aplicación de la IA generativa al sector jurídico

La integración de la inteligencia artificial generativa en el sector jurídico, si bien prometedora, plantea diversos desafíos y aspectos negativos que requieren atención y consideración cuidadosa. A pesar de los avances significativos en la automatización y mejora de procesos, es crucial abordar los siguientes aspectos adversos para garantizar una implementación ética y efectiva.

Falta de discernimiento humano

Aunque los sistemas de inteligencia artificial pueden analizar datos a una velocidad impresionante, carecen del entendimiento y la sensibilidad humanos. La interpretación de matices legales, la comprensión de contextos emocionales y la toma de decisiones basadas en la ética son habilidades intrínsecas a los profesionales del derecho. La sobre dependencia de la tecnología en la interpretación de situaciones complejas podría resultar en evaluaciones inadecuadas o insensibles.

Riesgo de sesgo algorítmico

Los algoritmos utilizados en la inteligencia artificial generativa se entrenan con datos históricos, y si esos datos contienen sesgos culturales, étnicos o de género, los resultados generados pueden reflejar y perpetuar esos sesgos. Esto plantea preocupaciones éticas y legales, ya que las decisiones automatizadas podrían ser inherentemente discriminatorias, afectando la equidad y la justicia en el sistema legal.

Seguridad y privacidad de los datos

La implementación de la inteligencia artificial en el ámbito jurídico implica el manejo de información altamente confidencial. La vulnerabilidad de los sistemas a ataques cibernéticos podría resultar en la exposición de datos delicados, comprometiendo la confidencialidad y la integridad del sistema legal. Es esencial una buena protección contra amenazas cibernéticas para mantener la confianza en estas tecnologías.

Desplazamiento laboral

A medida que la inteligencia artificial asume tareas rutinarias y repetitivas, existe el riesgo de que ciertos empleos en el sector jurídico se vean afectados. Esto plantea preguntas sobre la reestructuración de roles y la necesidad de que los profesionales del derecho adquieran nuevas habilidades para adaptarse a un entorno laboral cambiante. La ética de este desplazamiento y las medidas para mitigar sus impactos deben abordarse cuidadosamente.

Complejidad ética en la toma de decisiones

Los algoritmos de inteligencia artificial generativa operan a menudo de manera opaca, lo que significa que la lógica detrás de sus decisiones puede ser difícil de entender o explicar. Esto plantea preguntas éticas sobre la responsabilidad y la transparencia en la toma de decisiones legales, especialmente en casos críticos donde la explicación clara de las decisiones es fundamental.

Costos asociados con la implementación

Desde el desarrollo inicial hasta la capacitación continua y el mantenimiento de sistemas, las firmas legales, especialmente las más pequeñas, pueden enfrentar desafíos financieros significativos. Esto plantea la cuestión de la equidad en el acceso a estas tecnologías y la necesidad de buscar soluciones que no perpetúen desigualdades en el sistema legal.

Resistencia cultural y adaptación

La resistencia cultural y la adaptación son factores que no deben pasarse por alto. La introducción de la inteligencia artificial generativa puede encontrar resistencia entre los profesionales del derecho que pueden ser reacios a confiar en tecnologías emergentes. La cultura organizacional y la aceptación de estas herramientas pueden requerir tiempo y esfuerzo para una implementación exitosa. La capacitación y la comunicación efectiva son esenciales para superar estas barreras.

En conclusión, la aplicación de la inteligencia artificial generativa en el sector jurídico, si bien ofrece beneficios significativos, no está exenta de desafíos. Abordar la falta de discernimiento humano, mitigar el riesgo de sesgo algorítmico, garantizar la seguridad y privacidad de los datos, manejar el desplazamiento laboral, abordar la complejidad ética en la toma de decisiones y gestionar los costos asociados son imperativos para una implementación ética y efectiva. La reflexión cuidadosa y la regulación adecuada son esenciales para aprovechar los beneficios de la inteligencia artificial sin comprometer los principios fundamentales de equidad y justicia en el sistema legal.

Self-driving cars react in a split second: quicker than even the most attentive driver. Self-driving cars don’t get tired, they don’t lose concentration or become aggressive; they’re not bothered by everyday problems and thoughts; they don’t get hungry or develop headaches. Self-driving cars don’t drink alcohol or drive under the influence of drugs. In short, human error, the number one cause of road traffic accidents, could be made a thing of the past in one fell swoop if manual driving were to be banned immediately. Is that right? It would be, if there hadn’t recently been reports about two deaths, one during the test drive for a self-driving car (UBER) and one while a semi-autonomous vehicle was driving on a motorway and using its lane assist system (Tesla), both of which regrettably occurred in the USA in March 2018. In Tesla’s case it seems that the semi-autonomous driving assistant was switched off at the moment of the accident.

Around the globe, people die every day due to careless driving, with around 90% of all accidents caused by human error and just a small percentage due to a technical fault related to the vehicle. Despite human error, we have not banned driving on these grounds. Two accidents with fatal consequences involving autonomous vehicles being test-driven have attracted the full glare of the media spotlight, and call into question the technical development of a rapidly progressing industry. Are self-driving cars now just hype, or a trend that cannot be contained, despite every additional human life that is lost as a result of mistakes made by self-driving technology?

For many, the thought that fully autonomous vehicles (a self-driving car without a driver) might exist in the future is rather unsettling. The two recent deaths in the USA resulting from (semi-) autonomous cars have, rather, my cause fear for others. From a legal perspective, it makes no difference whatsoever for the injured party whether the accident was caused by a careless human or technology that was functioning inadequately. The reason for the line drawn between the two, despite this fact, is probably that every human error represents a separate accident, whereas the failure or malfunction of technology cannot be seen as a one-off: rather, understandably and probably correctly, it is viewed as a system error or series error caused by a certain technology available at a particular point in time.

From a legal angle, a technical defect generally also represents a design defect that affects the entire run of a particular vehicle range. Deaths caused by software malfunctions cause people to quickly lose trust in other vehicles equipped with the same faulty software. Conversely, if a drunk driver injures or kills another road user, it is not assumed that the majority of other drivers (or all of them) could potentially cause accidents due to the influence of alcohol.

The fundamental question for all technological developments is this: do people want self-driving cars?

When we talk of self-driving (or autonomous) vehicles, we mean machines guided by computers. On-board computers are common practice in aviation, without the pilot him – or herself flying the plane – and from a statistical point of view, airplanes are the safest mode of transport. Couldn’t cars become just as safe? However, a comparison between planes and cars cannot be justified, due to the different user groups, the number of cars driven every day, and the constantly imminent risk of a collision with other road users, including pedestrians.

While driver assistance systems, such as lane assist, park assist or adaptive cruise control, can be found in many widespread models and are principally permitted and allowed in Europe, current legislation in Europe and also Austria only permits (semi-) autonomous vehicles to be used for test purposes. Additionally, in Austria these test drives can, inter alia, only take place on motorways or with minibuses in an urban environment following specially marked routes (cf. the test drives with minibuses in the towns of Salzburg and Velden). Test drives have been carried out on Austria’s roads in line with particular legal requirements for a little more than a year, and it has been necessary to have a person in the vehicle at all times. This person must be able to intervene immediately if an accident is on the horizon, to correct wrong steering by the computer or to get the vehicle back under (human) control.

Indeed, under the legislation in the US states that do permit test drives, people still (currently) need to be inside the car (even before the two accidents mentioned above, California had announced a law that would have made it no longer necessary to have a person in the vehicle). As a result, three questions arise regarding the UBER accident which occurred during a test drive in the US state of Arizona, resulting in a fatal collision with a cyclist: 1. Could the person who was inside the vehicle to control it for safety reasons have activated the emergency brake and averted the collision with the cyclist who suddenly crossed the road? 2. Why did the sensors built into the car not recognise the cyclist in time? 3. Why did the vehicle not stick to the legal speed limit?

Currently, driving systems are being tested in Europe and the USA. In the USA, this can take place on national roads and, contrary to European legislation, also on urban streets. As long as we are still in the test phase we cannot talk of technically proven, let alone officially approved, driving systems. The technical development of self-driving cars, however, has already made it clear that legal responsibility is shifting away from the driver and towards vehicle manufacturers and software developers.

Whether, and when, self-driving cars could become an everyday phenomenon is greatly dependent on certain (future) questions: are we right to expect absolute safety from self-driving cars? What decisions should self-driving cars make in the event that one life can only be saved at the cost of another, and how should this dilemma be resolved?

If artificial intelligence (AI) and self-learning systems could also be included within the technology for self-driving cars, vehicles of this type might possibly become one day “humanoid robots on four wheels”, but they could not be compared to a human being with particular notions of value and morality. If every individual personally bears responsibility for their intuitive behaviour in a specific accident situation, the limits of our legal system are laid bare if algorithms using huge quantities of data make decisions in advance for a subsequent accident situation: these decisions can no longer be wholly ascribed to a particular person or software developer if a self-driving car is involved. It will be our task as lawyers to offer legal support to legislators as they attempt to meet these challenges.

Javier Gaspar Álvarez-Novoa

Áreas de práctica

  • Arte
  • Contratos
  • Derecho Societario
  • Reclamación de deudas
  • Inversiones extranjeras

Contacta con Javier





    Lea la política de privacidad de Legalmondo.
    Este sitio está protegido por reCAPTCHA y se aplican la Política de privacidad de Google y los Términos de servicio.

    Self-driving cars – Travelling towards the law

    26 abril 2018

    • Inteligencia artificial

    La inteligencia artificial generativa (IA generativa) es una variante de la inteligencia artificial destinado a crear modelos capaces de generar contenido nuevo y original. Estos modelos son entrenados para aprender patrones y características a partir de conjuntos de datos, y luego pueden generar contenido similar o incluso completamente nuevo basándose en esas pautas aprendidas.

    Un tipo específico de modelo generativo es la red neuronal generativa (GAN, por sus siglas en inglés). Las GAN consisten en dos redes neuronales, una generadora y otra discriminadora, que trabajan en conjunto. La red generadora crea contenido nuevo, mientras que la red discriminadora evalúa la autenticidad de ese contenido. A medida que estas redes compiten y mejoran, el modelo generativo puede producir resultados cada vez más realistas.

    La AI generativa tiene aplicaciones en diversas áreas, como la creación de arte, la generación de texto creativo, la síntesis de voz, etc. También se utiliza en campos como la mejora de imágenes y la traducción automática. Este enfoque ha avanzado significativamente en los últimos años y sigue siendo un área activa de investigación en la inteligencia artificial.

    La inteligencia artificial generativa aplicada al sector jurídico implica el uso de modelos generativos para ayudar en diversas tareas y procesos relacionados con la práctica legal.

    Aspectos positivos de la IA generativa aplicada al sector jurídico

    La integración de la inteligencia artificial generativa en el ámbito jurídico ha emergido como un catalizador transformador, proporcionando una serie de beneficios significativos que impactan positivamente en la eficiencia, precisión y accesibilidad de los servicios legales. A lo largo de esta evolución, diversos aspectos destacan la contribución sustancial de la inteligencia artificial a la práctica legal.

    A continuación, se destacan algunos de estos aspectos beneficiosos:

    Redacción de Documentos Legales

    La AI generativa puede ser utilizada para redactar documentos legales, contratos y otros textos jurídicos. Puede generar contenido basado en patrones aprendidos a partir de grandes conjuntos de datos legales, facilitando la creación de documentos estándar y reduciendo la carga de trabajo para los profesionales del derecho, garantizando también la coherencia y precisión en la redacción legal, reduciendo riesgos asociados con posibles errores humanos.

    Análisis de grandes volúmenes de datos

    La capacidad de procesar información a una velocidad y escala que supera las habilidades humanas permite la identificación de patrones, tendencias y precedentes con mayor rapidez y precisión. Este análisis avanzado contribuye a fortalecer los argumentos legales, mejorar la toma de decisiones estratégicas y ofrecer a los clientes una representación legal más sólida.

    Mejora en la investigación legal

    Los sistemas de inteligencia artificial generativa pueden realizar búsquedas más rápidas y precisas en bases de datos legales, bibliotecas jurídicas y jurisprudencia. Esto agiliza el proceso de investigación legal, proporcionando a los profesionales acceso a información relevante de manera más eficiente.

    Generación de Argumentos Jurídicos

    La AI generativa puede asistir en la generación de argumentos legales sólidos. Al comprender la jurisprudencia y los principios legales, puede ayudar a los abogados a construir mejores argumentos y a desarrollar estrategias para casos específicos.

    Asesoramiento Legal Automatizado

    Se pueden desarrollar sistemas de asesoramiento legal automatizado que utilicen AI generativa para responder preguntas legales comunes y proporcionar orientación básica. Esto podría ser útil para consultas legales más simples y para mejorar el acceso a la información jurídica.

    Asesoramiento legal personalizado

    La inteligencia artificial puede analizar datos específicos de casos y proporcionar asesoramiento legal personalizado. Esto ayuda a los profesionales del derecho a tomar decisiones más informadas y estratégicas, considerando factores específicos de cada situación.

    Simulación de Escenarios Legales

    La AI generativa puede simular escenarios legales para ayudar a los abogados a evaluar posibles resultados y riesgos en casos particulares. Esto podría ser útil en la toma de decisiones estratégicas y en la planificación legal.

    Automatización de tareas repetitivas

    La capacidad de los sistemas de inteligencia artificial para asumir la carga de trabajo relacionada con la revisión de documentos estándar y la gestión de información básica permite a los profesionales del derecho centrarse en cuestiones más complejas y estratégicas. Esta automatización no solo ahorra tiempo, sino que también disminuye la probabilidad de errores humanos, fortaleciendo así la calidad global del trabajo legal.

    Optimización de procesos internos

    La inteligencia artificial puede contribuir significativamente a mejorar la eficiencia en la gestión de casos, programación de reuniones y otras operaciones diarias en firmas legales. Esta optimización no solo agiliza las prácticas internas, sino que también permite una asignación más eficiente de recursos y una gestión más efectiva de la carga de trabajo.

    En resumen, la aplicación de la inteligencia artificial generativa en el sector jurídico trasciende la mera automatización de tareas, abarcando aspectos fundamentales que mejoran la calidad y eficiencia de los servicios legales. Desde la automatización de tareas rutinarias hasta el análisis avanzado de datos y la generación de documentos, la inteligencia artificial se presenta como un aliado poderoso que impulsa la evolución positiva en la práctica jurídica. Este avance no solo mejora la eficiencia interna de las firmas legales, sino que también fortalece la capacidad de los profesionales del derecho para ofrecer asesoramiento preciso y estratégico en un entorno legal en constante cambio.

    Aunque la AI generativa ofrece muchas posibilidades, su implementación en el sector jurídico debe abordarse con precaución para garantizar la precisión, la ética y la conformidad con las leyes y normativas aplicables. La intervención humana y la supervisión legal siguen siendo esenciales para asegurar la calidad y la responsabilidad en el uso de estas tecnologías.

    Aspectos negativos de la aplicación de la IA generativa al sector jurídico

    La integración de la inteligencia artificial generativa en el sector jurídico, si bien prometedora, plantea diversos desafíos y aspectos negativos que requieren atención y consideración cuidadosa. A pesar de los avances significativos en la automatización y mejora de procesos, es crucial abordar los siguientes aspectos adversos para garantizar una implementación ética y efectiva.

    Falta de discernimiento humano

    Aunque los sistemas de inteligencia artificial pueden analizar datos a una velocidad impresionante, carecen del entendimiento y la sensibilidad humanos. La interpretación de matices legales, la comprensión de contextos emocionales y la toma de decisiones basadas en la ética son habilidades intrínsecas a los profesionales del derecho. La sobre dependencia de la tecnología en la interpretación de situaciones complejas podría resultar en evaluaciones inadecuadas o insensibles.

    Riesgo de sesgo algorítmico

    Los algoritmos utilizados en la inteligencia artificial generativa se entrenan con datos históricos, y si esos datos contienen sesgos culturales, étnicos o de género, los resultados generados pueden reflejar y perpetuar esos sesgos. Esto plantea preocupaciones éticas y legales, ya que las decisiones automatizadas podrían ser inherentemente discriminatorias, afectando la equidad y la justicia en el sistema legal.

    Seguridad y privacidad de los datos

    La implementación de la inteligencia artificial en el ámbito jurídico implica el manejo de información altamente confidencial. La vulnerabilidad de los sistemas a ataques cibernéticos podría resultar en la exposición de datos delicados, comprometiendo la confidencialidad y la integridad del sistema legal. Es esencial una buena protección contra amenazas cibernéticas para mantener la confianza en estas tecnologías.

    Desplazamiento laboral

    A medida que la inteligencia artificial asume tareas rutinarias y repetitivas, existe el riesgo de que ciertos empleos en el sector jurídico se vean afectados. Esto plantea preguntas sobre la reestructuración de roles y la necesidad de que los profesionales del derecho adquieran nuevas habilidades para adaptarse a un entorno laboral cambiante. La ética de este desplazamiento y las medidas para mitigar sus impactos deben abordarse cuidadosamente.

    Complejidad ética en la toma de decisiones

    Los algoritmos de inteligencia artificial generativa operan a menudo de manera opaca, lo que significa que la lógica detrás de sus decisiones puede ser difícil de entender o explicar. Esto plantea preguntas éticas sobre la responsabilidad y la transparencia en la toma de decisiones legales, especialmente en casos críticos donde la explicación clara de las decisiones es fundamental.

    Costos asociados con la implementación

    Desde el desarrollo inicial hasta la capacitación continua y el mantenimiento de sistemas, las firmas legales, especialmente las más pequeñas, pueden enfrentar desafíos financieros significativos. Esto plantea la cuestión de la equidad en el acceso a estas tecnologías y la necesidad de buscar soluciones que no perpetúen desigualdades en el sistema legal.

    Resistencia cultural y adaptación

    La resistencia cultural y la adaptación son factores que no deben pasarse por alto. La introducción de la inteligencia artificial generativa puede encontrar resistencia entre los profesionales del derecho que pueden ser reacios a confiar en tecnologías emergentes. La cultura organizacional y la aceptación de estas herramientas pueden requerir tiempo y esfuerzo para una implementación exitosa. La capacitación y la comunicación efectiva son esenciales para superar estas barreras.

    En conclusión, la aplicación de la inteligencia artificial generativa en el sector jurídico, si bien ofrece beneficios significativos, no está exenta de desafíos. Abordar la falta de discernimiento humano, mitigar el riesgo de sesgo algorítmico, garantizar la seguridad y privacidad de los datos, manejar el desplazamiento laboral, abordar la complejidad ética en la toma de decisiones y gestionar los costos asociados son imperativos para una implementación ética y efectiva. La reflexión cuidadosa y la regulación adecuada son esenciales para aprovechar los beneficios de la inteligencia artificial sin comprometer los principios fundamentales de equidad y justicia en el sistema legal.

    Self-driving cars react in a split second: quicker than even the most attentive driver. Self-driving cars don’t get tired, they don’t lose concentration or become aggressive; they’re not bothered by everyday problems and thoughts; they don’t get hungry or develop headaches. Self-driving cars don’t drink alcohol or drive under the influence of drugs. In short, human error, the number one cause of road traffic accidents, could be made a thing of the past in one fell swoop if manual driving were to be banned immediately. Is that right? It would be, if there hadn’t recently been reports about two deaths, one during the test drive for a self-driving car (UBER) and one while a semi-autonomous vehicle was driving on a motorway and using its lane assist system (Tesla), both of which regrettably occurred in the USA in March 2018. In Tesla’s case it seems that the semi-autonomous driving assistant was switched off at the moment of the accident.

    Around the globe, people die every day due to careless driving, with around 90% of all accidents caused by human error and just a small percentage due to a technical fault related to the vehicle. Despite human error, we have not banned driving on these grounds. Two accidents with fatal consequences involving autonomous vehicles being test-driven have attracted the full glare of the media spotlight, and call into question the technical development of a rapidly progressing industry. Are self-driving cars now just hype, or a trend that cannot be contained, despite every additional human life that is lost as a result of mistakes made by self-driving technology?

    For many, the thought that fully autonomous vehicles (a self-driving car without a driver) might exist in the future is rather unsettling. The two recent deaths in the USA resulting from (semi-) autonomous cars have, rather, my cause fear for others. From a legal perspective, it makes no difference whatsoever for the injured party whether the accident was caused by a careless human or technology that was functioning inadequately. The reason for the line drawn between the two, despite this fact, is probably that every human error represents a separate accident, whereas the failure or malfunction of technology cannot be seen as a one-off: rather, understandably and probably correctly, it is viewed as a system error or series error caused by a certain technology available at a particular point in time.

    From a legal angle, a technical defect generally also represents a design defect that affects the entire run of a particular vehicle range. Deaths caused by software malfunctions cause people to quickly lose trust in other vehicles equipped with the same faulty software. Conversely, if a drunk driver injures or kills another road user, it is not assumed that the majority of other drivers (or all of them) could potentially cause accidents due to the influence of alcohol.

    The fundamental question for all technological developments is this: do people want self-driving cars?

    When we talk of self-driving (or autonomous) vehicles, we mean machines guided by computers. On-board computers are common practice in aviation, without the pilot him – or herself flying the plane – and from a statistical point of view, airplanes are the safest mode of transport. Couldn’t cars become just as safe? However, a comparison between planes and cars cannot be justified, due to the different user groups, the number of cars driven every day, and the constantly imminent risk of a collision with other road users, including pedestrians.

    While driver assistance systems, such as lane assist, park assist or adaptive cruise control, can be found in many widespread models and are principally permitted and allowed in Europe, current legislation in Europe and also Austria only permits (semi-) autonomous vehicles to be used for test purposes. Additionally, in Austria these test drives can, inter alia, only take place on motorways or with minibuses in an urban environment following specially marked routes (cf. the test drives with minibuses in the towns of Salzburg and Velden). Test drives have been carried out on Austria’s roads in line with particular legal requirements for a little more than a year, and it has been necessary to have a person in the vehicle at all times. This person must be able to intervene immediately if an accident is on the horizon, to correct wrong steering by the computer or to get the vehicle back under (human) control.

    Indeed, under the legislation in the US states that do permit test drives, people still (currently) need to be inside the car (even before the two accidents mentioned above, California had announced a law that would have made it no longer necessary to have a person in the vehicle). As a result, three questions arise regarding the UBER accident which occurred during a test drive in the US state of Arizona, resulting in a fatal collision with a cyclist: 1. Could the person who was inside the vehicle to control it for safety reasons have activated the emergency brake and averted the collision with the cyclist who suddenly crossed the road? 2. Why did the sensors built into the car not recognise the cyclist in time? 3. Why did the vehicle not stick to the legal speed limit?

    Currently, driving systems are being tested in Europe and the USA. In the USA, this can take place on national roads and, contrary to European legislation, also on urban streets. As long as we are still in the test phase we cannot talk of technically proven, let alone officially approved, driving systems. The technical development of self-driving cars, however, has already made it clear that legal responsibility is shifting away from the driver and towards vehicle manufacturers and software developers.

    Whether, and when, self-driving cars could become an everyday phenomenon is greatly dependent on certain (future) questions: are we right to expect absolute safety from self-driving cars? What decisions should self-driving cars make in the event that one life can only be saved at the cost of another, and how should this dilemma be resolved?

    If artificial intelligence (AI) and self-learning systems could also be included within the technology for self-driving cars, vehicles of this type might possibly become one day “humanoid robots on four wheels”, but they could not be compared to a human being with particular notions of value and morality. If every individual personally bears responsibility for their intuitive behaviour in a specific accident situation, the limits of our legal system are laid bare if algorithms using huge quantities of data make decisions in advance for a subsequent accident situation: these decisions can no longer be wholly ascribed to a particular person or software developer if a self-driving car is involved. It will be our task as lawyers to offer legal support to legislators as they attempt to meet these challenges.

    Andreas Eustacchio

    Áreas de práctica

    • Derecho Internacional Privado
    • Derecho Societario
    • Inteligencia artificial
    • Derecho Laboral